Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Как конфигурировать SDRS Anti-Affinity правила с PowerCLI – Часть 3


Это Часть 3 в серии о Storage DRS. В предыдущей части мы говорили о том как создавать и удалять SDRS Anti-Affinity правила. Чтобы закрыть тему, нам осталось редактировать/реконфигурировать существующие правила. Логично предположить, что это будет функция Set-SdrsAntiAffinityRule.


Таги: SDRS, PowerCLI, vSphere, VMware, Storage

Что нового будет в Virtual Volumes (VVols) в следующей версии VMware vSphere?


На прошедшей конференции VMworld 2017 в рамках сессии "VMware Virtual Volumes Technical Deep Dive" компания VMware рассказала о технических аспектах технологии VVols, а также возможностях, которые появятся в следующей версии платформы виртуализации VMware vSphere:

Самый интересный слайд показывают в конце презентации:

Во-первых, надо отметить, что следующая версия vSphere будет иметь номер 6.7, а, во-вторых, давайте посмотрим на три фичи, которые появятся в VVols, подетальнее:

  • Support for Microsoft Cluster Server (MSCS) – это была одна из причин, по которой администраторы до сих пор используют RDM, а этот вариант использования не поддерживается со стороны VVols. Данная поддержка позволит расширить сферу использования технологии.
  • Performance parity with VMFS – в данном случае цель VMware - обеспечить высокую производительность VVols, поскольку сейчас есть промежуточный компонент Protocol Endpoint, который замедляет работу подсистемы ввода-вывода. Также будут оптимизированы такие операции как bind, соединения VASA, а также обработка метаданных томов VVols. Кстати, в целом-то VVols должна работать даже побыстрее, чем VMFS.
  • IPv6 support – платформа vSphere уже давно поддерживает IPv6, а сами VVols будут поддерживать IPv6 на уровне службы VASA Provider.

Поддержка NFS 4.1 и операций BIND/UNBIND/REBIND. Сейчас они делаются через VASA provider, которые идут через control path, поэтому медленные, а будут работать через Protocol Endpoint (то есть data path, что быстрее).

Будем следить за новостями о новых возможностях VMware vSphere 6.7.


Таги: VMware, vSphere, VVols, Storage, Update

Вышли полезные обновления для VMware vSphere 5.5 - ESXi и vCenter.


Один из наших читателей обратил внимание на то, что недавно компания VMware выпустила существенное обновление VMware vSphere 5.5, в котором присутствует немало исправлений ошибок.

Первое - это патч для VMware ESXi 5.5 от 14 сентября (ESXi-5.5.0-20170904001-standard, билд 6480324). В нем пофикшены проблемы с виртуальными MAC-адресами, зависающими VMX-процессами, вылетами гипервизора в розовый экран, зависанием всего хоста ESXi, замедлением работы виртуальных машин и многое другое. В общем, патч обязательно надо накатить, если вы все еще используете версию 5.5.

Скачивается патч через Download Center:

Как накатывать патчи на ESXi 5.x мы писали вот тут.

Второе обновление - это апдейт сервисов vCenter 5.5, также от 14 сентября.

Тут были обновлены следующие компоненты:

  • vCenter Single Sign-On
  • vCenter Inventory Service
  • vCenter Server
  • vSphere Web Client
  • vRealize Orchestrator (бывший vCenter Orchestrator)
  • vSphere Update Manager
Для обновления просто монтируете ISO-образ апдейта (VMware-VIMPatch-5.5.0-6520252-20170901.iso, скачивать его надо из Download Center) и запускаете autorun:


Таги: VMware, vSphere, Update, ESXi, vCenter, Bugs

Как создавать и удалять SDRS Anti-Affinity правила с PowerCLI – Часть 2.


Это Часть 2 в серии о Storage DRS. Часть 1 «Как конфигурировать Storage DRS кластеры с PowerCLI – Часть 1» находится здесь. Часть 3 «Как конфигурировать SDRS Anti-Affinity правила с PowerCLI – Часть 3» и может быть даже Часть 4 «Как просмотреть историю операций SDRS кластеров с PowerCLI – Часть 4» ожидаются в ближайшем будущем. Следите за новыми публикациями! Эта статья расскажет о 4 новых функциях...


Таги: VMware, PowerCLI, DRS, vSphere

Очередные обновления VMware vSphere Client 3.21 - новые возможности.


За прошедшие три недели, во время конференции VMworld 2017 и сразу после нее, компания VMware выпустила обновления своего HTML5-клиента для управления виртуальной инфраструктурой - vSphere Client 3.21 и 3.20. Напомним, что о версии vSphere Client 3.19 мы писали вот тут.

Давайте посмотрим, что нового появилось в последних двух обновлениях клиента, который скоро станет основным средством управления виртуальной инфраструктурой:

  • Создание и редактирование спецификаций кастомизации ВМ с кастомными сетевыми настройками.
  • Редактирование и клонирование компонента Storage Policy.
  • Установки возможностей хранилищ (Datastore > Configure > Capability sets).
  • Создание, редактирование и удаление групп Link Aggregation на распределенных виртуальных коммутаторах.
  • Просмотр установленных I/O Filters для хостов и кластеров.
  • Создание и конфигурирование сетевых пулов ресурсов для механизма Network I/O Control v3.
  • Запрос подтверждения при логауте во время закачки/скачки файла с датастора.
  • Новый фильтр в диалоговом окне VM Settings > Network Adapter > Browse.
  • Возможность включения/отключения IPv6 на хостах ESXi.
  • Информация о назначенных Shares доступна в представлениях Resource Allocation для кластеров и пулов ресурсов.
  • Если ESXi находятся под управлением vCenter 6.5, то для сенсоров оборудования показываются временные метки, когда были получены их статусы.

Загрузить VMware vSphere Client 3.21 можно по этой ссылке.


Таги: VMware, Client, Update, vSphere

Новое на VMware Labs - утилита DRS Dump Insight для аналитики рекомендаций по миграциям vMotion.


На днях компания VMware выпустила утилиту DRS Dump Insight, описание которой доступно на сайте VMware Labs. Это портал самообслуживания, куда пользователи могут загружать файлы дампов DRS. После этого будет выведена информация об операциях по перемещению виртуальных машин, которые рекомендует выполнить механизм балансировки нагрузки DRS :

Утилита DRS Dump Insight позволит ответить на следующие вопросы:

  • Почему DRS выдал конкретную рекомендацию (улучшить баланс по CPU, по памяти и т.п.)?
  • Почему DRS не вырабатывает рекомендации по балансировке кластера?
  • Какие рекомендации DRS выработал для анализа cost/benefit (затраты/выгоды)?
  • Можно ли получить список вообще всех рекомендаций, выданных DRS?

После того, как вы загрузите файл дампа на портал, вы можете получить детальную информацию о том, через какие промежуточные рекомендации по миграциям механизм DRS прошел, чтобы выработать финальный список.

Вот так выглядит этот отчет (его можно экспортировать в PDF):

Нажав "Show" можно увидеть исходный и целевой хосты ESXi, для которых сформирована рекомендация по перемещению ВМ в данной категории.

Также в утилите доступна аналитика вида "что если?" (what-if analysis), которая позволяет смоделировать следующие ситуации:

  • Изменение пороговых значений миграции (DRS Migration Threshold).
  • Удаление правил affinity/anti-affinity rules в кластере.
  • Изменение расширенных настроек DRS.

Средство DRS Dump Insight будет очень полезно Enterprise-администраторам, ищущим средство для аналитики, тонкого тюнинга DRS и оптимизации миграций vMotion в рамках больших кластеров. Утилита доступна по адресу https://www.drsdumpinsight.vmware.com/.


Таги: VMware, DRS, Troubleshooting, Labs, vSphere, ESXi, vMotion

Каких продуктов больше не будет в следующих (через одну) версиях VMware vSphere?


На проходящей сейчас конференции VMware VMworld 2017 будет сделано много интересных анонсов, в том числе новых продуктов и технологий, но в этом посте мы расскажем, наоборот, о том, какие продукты доживают свои последние дни и больше будут недоступны в следующих версиях платформы VMware vSphere.

1. VMware vCenter Server for Windows.

Да, нетленная классика, продукт, являвшийся основным решением для управления платформой VMware vSphere, уходит в прошлое. На смену ему придет полнофункциональный виртуальный модуль VMware vCenter Server Appliance (vCSA) - готовая виртуальная машина на базе Linux, предоставляющая все необходимые сервисы vCenter. vCSA был анонсирован еще в версии vSphere 5.0 (а это было аж 6 лет назад) и с тех пор показал себя как надежное средство управления виртуальной инфраструктурой.

Мы уже писали о том, что vCSA позиционируется как главный инструмент управления vSphere, а сама VMware выпускает рекомендации по миграции на vCSA с обычного vCenter. К эксклюзивным преимуществам vCSA относятся такие возможности, как бэкап и восстановление на уровне файлов, унифицированная процедура обновления, нативные функции vCenter High Availability и существенное опережение обычного vCenter в плане производительности.

Напомним, что vCSA построен на базе операционной системы Photon OS и базы данных vPostgres, что позволит VMware поддерживать весь стек решения (а не только отдельные сервисы, как для Windows). Пользователи любят vCSA за простоту развертывания и обновлений.

Более подробно о снятии с производства vCenter Server for Windows написано здесь. Следующий релиз vSphere еще будет содержать vCenter Server for Windows, но это будет последний его мажорный релиз.

2. VMware vSphere Web Client.

О том, что Web Client скоро прикажет долго жить мы пишем по нескольку раз в месяц, да что-то он никак не умрет. На данный момент версия vSphere Client 3.19, построенная на базе технологии HTML 5, имеет около 90% всего функционала Web Client, но все еще не дотягивает до полноценной версии (вот таблица отличий функционала).

Web Client уходит по понятным причинам - технология Flash, на которой он построен, уходит в небытие (об этом объявила и сама Adobe). В vSphere 6.5 Update 1, который вышел недавно, уже присутствует свежая версия vSphere Client, а в следующем мажорном релизе vSphere будет поставляться его полноценная релизная версия. А вот Web Client в следующем релизе появится уже в последний раз, а через один релиз его уже исключат из дистрибутива платформы, поэтому нужно осваивать vSphere Client уже сейчас.

Более подробно о снятии с производства Web Client написано здесь.

3. Интерфейс vmkLinux APIs.

Помимо списания vCenter и Web Client, компания VMware также убирает интерфейс vmkLinux API, который уже устарел, и вместо которого используется архитектура нативных драйверов под vSphere, начиная еще с ESXi 5.5.

vmkLinux - это такая прослойка между VMkernel и Linux-драйверами, которая позволяла транслировать команды от ядра (так как VMkernel - это НЕ Linux) к драйверам и обратно. Но теперь нативных партнерских драйверов устройств для ESXi накопилось достаточно, и старая архитектура Linux-драйверов уходит в прошлое.

В следующем релизе vSphere модель vmkLinux API еще будет присутствовать, но это будет последнее большое обновление, которое будет ее поддерживать. Нативные драйвера вполне справляются со всеми задачами для большинства брендового оборудования, однако некоторое количество непопулярного железа перестанет работать. Надо быть к этому готовым.

Более подробно об отказе от vmkLinux API написано здесь.


Таги: VMware, vSphere, vCenter, vCSA, Web Client, Client, Linux, Hardware

Вышла новая версия VMware vSphere Client 3.19 - много новых возможностей.


Компания VMware выпустила большое обновление своего средства для управления виртуальной инфраструктурой, доступное на VMware Labs. На днях вышел веб-клиент VMware vSphere Client 3.19. Напомним, что он построен на базе технологии HTML5 и работает намного быстрее своего предшественника vSphere Web Client. Пару недель назад мы писали о версии 3.18, а уже подоспело большое обновление. Видимо, это к предстоящему VMworld 2017.

Итак, новые возможности vSphere Client 3.19:

  • Добавление хостового и клиентского USB-устройства к виртуальной машине.
  • Добавление USB-контроллера.
  • Действие по добавлению лицензии на сервер vCenter, кластер или хост.
  • Редактирование и клонирование политики хранилищ (VM Storage Policy), а также для отдельных ВМ (Actions > VM Policies > Edit VM Storage Policies).
  • Компонентное представление политики хранилищ. Создание и удаление компонентов.
  • Представление Related VM Templates для политики хранилищ.
  • Монтирование датасторов VVol.
  • Новый портлет VVOL Capability Profiles Capacity.
  • Создание и изменение спецификаций кастомизации ВМ (пока без кастомных конфигураций сетевого взаимодействия)
  • Конфигурация для отдельных дисков при клонировании ВМ или шаблона на странице Select storage.
  • Списки хостов могут быть отсортированы по потреблению CPU и памяти.
  • Мониторинг использования памяти DRS для кластеров, позволяющий переключаться между графиками active и consumed memory.
  • Обновленный интерфейс в мастере миграции, в части диалога compatibility issues - возможность отсортировать список по ВМ, хостам или самой проблеме совместимости.

Как мы видим, VMware наращивает темп по приближению к функциональности старого средства управления vSphere Web Client (их отличия приведены вот тут). Скачать VMware vSphere Client 3.19 можно с VMware Labs по этой ссылке.


Таги: VMware, vSphere, Client, Update

VMware PowerCLI 6.5.1 и 6.5.2 - что нового по сравнению с осенним релизом 6.5.


Где-то во время релиза обновленной версии платформы VMware vSphere 6.5 компания VMware выпустила и новую версию фреймворка PowerCLI 6.5, в котором было много новых возможностей, особенно касающихся управления кластером vSAN.

На днях же вышла версия PowerCLI 6.5.2 (сразу же после релиза vSphere 6.5 Update 1), посмотрим что там появилось нового, а также заодно упомянем новые фичи прошлого апдейта - PowerCLI 6.5.1 (он вышел 3 месяца назад).

Напомним также, что теперь PowerCLI можно устанавливать и обновлять через портал Microsoft PowerShell Gallery всего одной командой:

Итак, посмотрим что нового в PowerCLI 6.5.2:

1. Параметр InventoryLocation.

Если раньше при перемещении ВМ использовался параметр Destination, который принимал тип folder, ESXi-хост, кластер или ресурс-пул (но только одно из вышеперечисленного), то теперь можно использовать параметр InventoryLocation для задания непосредственного конечного положения ВМ. Это упрощает перемещение ВМ, например, между серверами vCenter:

2. Можно использовать ISO из Content Library.

Теперь командлет New-CDDrive имеет параметр ContentLibraryIso, который можно использовать для указания ISO-образа в библиотеке.

3. Обновления экспериментальных фичей:

  • Set-HardDisk -ZeroOut. Этот параметр можно использовать для заполнения диска нулями при прямом обращении к хосту ESXi.
  • New-HardDisk -AdvancedSetting. Этот параметр используется для ассоциации правил Storage Distributed Resource Scheduler (SDRS).
  • New-VM -AdvancedSetting. Аналогично предыдущему пункту - нужен для правил SDRS.
  • Install-VMHostPatch. Весь этот командлет пока экспериментальный.

А вот что нового было в PowerCLI 6.5.1:

1. Автозагрузка модулей PowerShell.

Теперь после логина и выполнения запроса к командлету автоматически подгружаются все необходимые модули. Например, вот что происходит после выполнения Connect-VIServer (обратите внимание на состав модулей):

2. Новые и обновленные командлеты для групп кластеров DRS и правил VM/Host.

Следующие командлеты были добавлены:

  • Get-DRSClusterGroup
  • New-DRSClusterGroup
  • Set-DRSClusterGroup
  • Remove-DRSClusterGroup
  • Get-DRSVMHostRule
  • New-DRSVMHostRule
  • Set-DRSVMHostRule
  • Remove-DRSVMHostRule

3. Новый модуль VMware.VimAutomation.Srm для управления SRM.

Теперь он вынесен из основного модуля в отдельный.

4. Обновления API.

Для работы с внешними продуктами были очень существенно обновлены модули vR Ops (vRealize Operations) и Horizon (для работы с Horizon View 7.1 API).

5. Новые командлеты для iSCSI vSAN.

Здесь появились следующие командлеты для управления инициаторами и таргетами iSCSI:

  • Get-VsanIscsiInitiatorGroup
  • New-VsanIscsiInitiatorGroup
  • Set-VsanIscsiInitiatorGroup
  • Remove-VsanIscsiInitiatorGroup
  • Get-VsanIscsiTarget
  • New-VsanIscsiTarget
  • Set-VsanIscsiTarget
  • Remove-VsanIscsiTarget
  • Get-VsanIscsiInitiatorGroupTargetAssociation
  • New-VsanIscsiInitiatorGroupTargetAssociation
  • Remove-VsanIscsiInitiatorGroupTargetAssociation
  • Get-VsanIscsiLun
  • New-VsanIscsiLun
  • Set-VsanIscsiLun
  • Remove-VsanIscsiLun
  • Get-VsanStat
  • Start-VsanDiskFormatUpdate
  • Get-VSANView

Также модуль Storage получил новые командлеты для механизма storage policy based management (SPBM):

  • Start-SpbmReplicationPromote
  • Start-SpbmReplicationTestFailover
  • Stop-SpbmReplicationTestFailover

Более подробно обо всем этом написано в VMware PowerCLI 6.5.2 Cmdlet Reference. Загрузить vSphere PowerCLI 6.5.2 и получить подробную информацию о новых фичах по релизам можно на этой странице.


Таги: VMware, PowerCLI, Update, PowerShell, vSphere

Отчет Principled Technologies - VMware vSphere производительнее, чем RedHat Enterprise Virtualization.


На днях вышел интересный отчет компании Principled Technologies, специализирующейся, в том числе, на всякого рода тестировании аппаратно-программных сред. В документе "VMware vSphere memory overcommitment delivered greater VM density than Red Hat Virtualization" рассказывается о том, что на одном и том же оборудовании с помощью гипервизора ESXi можно запустить больше виртуальных машин, чем на гипервизоре KVM платформы RHEV.

Понятное дело, что исследование ангажированное (хотя бы, если посмотреть на заголовок), но поскольку таких документов не так много, мы решили обратить на него внимание.

Для тестирования использовался стоечный сервер Lenovo x3650 M5, на котором в виртуальных машинах работала СУБД Microsoft SQL Server 2016 с нагрузкой типа OLTP. В качестве основного показателя производительности использовался OPM (orders per minute), отображающий количественную оценку исполненных транзакций.

Если не использовать техники Memory Overcommit, то результат выполнения на 15 виртуальных машинах одного хоста в числе OPM примерно одинаковый на обоих гипервизорах:

А вот когда происходит увеличение числа виртуальных машин, то vSphere показывает себя значительно лучше:

Крестиками отмечены машины, которые на RHV просто не запустились, консоль продукта выдала вот такую ошибку:

Несмотря на включение техник оптимизации памяти в Red Hat Virtualization Manager (RHV-M), таких как memory ballooning и kernel shared memory, шестнадцатая виртуальная машина все равно отказывалась запускаться на KVM:

Ну а на vSphere продолжали наращивать число ВМ, пока не уперлись в недостаток ресурсов:

Получилось, что с техниками overcommit на vSphere получилось запустить 24 виртуальных машины, а на RHV - всего 15 штук. По итогу сделали вывод, что на VMware vSphere в 1,6 раза можно запустить больше виртуальных машин:

Не сказать, что это объективное тестирование, но очевидно, что ESXi в данном случае работает лучше KVM с точки зрения всяких оптимизаций памяти и прочих ресурсов ВМ.


Таги: VMware, Red Hat, Performance, RHV, vSphere, ESXi, KVM

Выпущены VMware vSphere Central и vSphere 6.5 Topology and Upgrade Planning Tool.


На днях компания VMware объявила о доступности онлайн-ресурса vSphere Central, на котором собраны все необходимые технические материалы по работе с платформой VMware vSphere. Ассеты, размещенные на vSphere Central, позволят администраторам получить все необходимые знания и навыки по работе с различными компонентами продукта, научиться обновлять их, обслуживать и прочее.

Контент на портале представлен в различных форматах, таких как текст/PDF, презентации, видео, а также живые кликабельные демонстрации продуктов и технологий (walkthrough).

Среди контента портала есть утилита vSphere 6.5 Topology and Upgrade Planning Tool, которая поможет администраторам vSphere спланировать новые развертывания решения, а также провести успешный апгрейд на версию 6.5 с прошлых версий платформы.

Если вы планируете обновление, то это средство спросит у вас текущие параметры виртуальной среды и желаемые параметры целевой инфраструктуры, а потом подскажет примерную рекомендуемую топологию:

Также, как часть процесса миграции, вам дадут текстовые и графические рекомендации по переносу сервера VMware vCenter в виртуальный модуль vCenter Server Appliance (так как сейчас это рекомендуемый сценарий эксплуатации vCenter).

Как бонус, в самом конце вам дадут список ресурсов о том, что необходимо будет сделать после обновления виртуальной инфраструктуры. Эти ресурсы можно будет отправить себе или своему коллеге по электронной почте.

Получить доступ к vSphere 6.5 Topology and Upgrade Planning Tool можно по этой ссылке. Компания VMware делает особенный акцент на том, что это средство будет постоянно улучшаться, как в плане UI, так и в плане насыщения контентом.


Таги: VMware, vSphere, Central, Upgrade, vCSA

Вышел VM Deployer 1.4 - утилита для развертывания OVA/OVF-шаблонов.


Не так давно мы писали об утилите VM Deployer, которая представляет собой Java-приложение с графическим интерфейсом, позволяющее развернуть виртуальный модуль OVA/OVF с расширенными опциями. Это удобно для тех администраторов виртуальной инфраструктуры VMware vSphere, у которых не получается развернуть модуль через vSphere Web Client или vSphere Client, либо не хватает его возможностей, а также возможностей консольной утилиты ovftool.

С того времени вышли версии VM Deployer 1.2 и 1.4, в которых уже появились функции поинтереснее, чем в первой версии, поэтому ниже мы расскажем об основных из них.

  • Генерация полной консольной команды для ovftool. В графическом интерфейсе выбираете все необходимые параметры, нажимаете кнопку - и выплевывается строчка, которую можно вставить в консоль и выполнить.
  • Развертывание ВМ из виртуального модуля сразу в несколько расположений. Например, это удобно для тестовой среды - поставил развертываться и ушел. Также это работает быстрее последовательного развертывания.
  • Конфигурирование сразу нескольких сетевых интерфейсов и виртуальных сетей. Раньше в GUI можно было сделать только один, а после развертывания добавлять и настраивать остальные.
  • Поддержка нескольких секций OVF-спецификации. Раньше не все параметры отображались - это был баг данной утилиты.
  • Экспорт виртуальной машины на локальную файловую систему. Это может пригодиться в целях бэкапа, когда нужно быстро и на короткое время сохранить машину.
  • Возможность открытия консоли VMRC к машине после ее деплоя. Также можно открыть консоль и к любой другой уже существующей машине.
  • Прямо из утилиты можно создавать новые папки на датасторах. Это можно делать при развертывании виртуальной машины из виртуального модуля, чтобы не обращаться в Web Client.
  • Возможность размещения ВМ в кластере - эта функция доступна при выборе кластера из выпадающего списка объектов инфраструктуры.

Скачать утилиту VM Deployer 1.4 можно по этой ссылке.


Таги: VMware, vSphere, VM Deployer, Update

Вышел VMware vSphere Client 3.18 и обновилась таблица его возможностей (и невозможностей).


Как вы знаете, на днях компания VMware выпустила обновленную версию платформы vSphere 6.5 Update 1, одной из новых возможностей которой стала обновленная версия клиента vSphere Client. Напомним, что этот клиент построен на базе технологии HTML5, и работает он намного быстрее своего предшественника vSphere Web Client. О прошлой версии vSphere Client 3.17 мы писали всего неделю назад.

Доступен vSphere Client на сайте проекта VMware Labs, ну а теперь его версия 3.18 включена в состав платформы vSphere 6.5 U1. На самом деле, мало что добавилось по сравнению с версией 3.17:

  • В мастере обновления распределенного коммутатора (distributed switch) теперь поддерживается апгрейд LACP на режим Enhanced mode, а также апгрейд механизма Network I/O Control на версию 3.
  • На распределенном коммутаторе теперь можно просматривать настройки групп link aggregation.

Но самое интересное - это вовсе не новый релиз клиента vSphere Client. Самое интересное - это обновленная таблица возможностей, которые позволяет делать этот клиент, а также список функций, которые он исполнять пока не позволяет:

Обе эти таблицы актуальны для самого последнего релиза 3.18, но новые версии vSphere Client, которые регулярно обновляются на VMware Labs, будут постепенно закрывать функциональность, указанную в таблице Unsupported Functionality.

Кстати, VMware уверяет, что на текущий момент vSphere Client 3.18 покрывает 90% возможностей, доступных в Web Client, а в ближайшее время эта цифра наконец-то дорастет до 100%.

Скачать VMware vSphere Client 3.18 можно по этой ссылке, также он идет в составе дистрибутива VMware vSphere 6.5 Update 1.


Таги: VMware, Client, Update, vSphere

Вышел VMware vSphere 6.5 Update 1 - новые возможности.


Спустя почти 9 месяцев с момента выпуска платформы VMware vSphere 6.5, компания VMware анонсировала первый пакет ее обновления - VMware vSphere 6.5 Update 1. Но в таком долгом сроке обновления есть и большой плюс - ведь наверняка на этот раз QA-отдел VMware успел хорошо проверить новый релиз, поэтому критических багов после обновления вылезти не должно (их, кстати, согласно списку Release Notes было немало исправлено). Тем не менее, как обычно мы советуем вам подождать недельку другую перед обновлением на новую версию:)

Давайте посмотрим, что нового появилось в VMware vSphere 6.5 Update 1:

1. vSphere Client теперь поддерживает 90% рабочих процессов.

Последний релиз vSphere Client на базе технологии HTML5 поддерживает практически все рабочие процессы, за исключением некоторых нечасто используемых операций. Совсем немного осталось до стопроцентного покрытия (хотя нам это говорили уже несколько месяцев назад). Надо отметить, что теперь полностью поддерживаются операции с Virtual Distributed Switch (VDS).

2. vCenter Server Foundation теперь поддерживает 4 хоста ESXi вместо трех.

Это сделано по просьбам клиентов, имеющих небольшую инфраструктуру и требующих одну лицензию на vCenter на четное число хостов.

3. Расширенная поддержка сторонних компонентов.

VMware поработала с основными партнерами, решения которых дополняют инфраструктуру vSphere, и выработала подход, который позволит избежать проблем совместимости различных версий платформы в будущем с такими компонентами, как Security Key Management, Proactive HA и т.п.

4. Расширенная поддержка vSphere 6.5 General Support.

VMware решила расширить поддержку платформы vSphere 6.5 до 5 лет, что означает, что она закончится 15 ноября 2021 года.

5. Апгрейд на vSphere 6.5 U1 c vSphere 6.0 U3.

VMware полностью поддерживает рабочий процесс обновления последней версии vSphere 6.0 U3 предыдущего поколения на актуальную версию vSphere 6.5 Update 1. То есть, теперь нет необходимости промежуточного обновления на vSphere 6.5.

6. Обновления драйверов.

Следующие драйвера устройств были обновлены в составе гипервизора ESXi 6.5 Update 1:

  • Cavium qlnativefc driver
  • VMware nvme driver
  • Intel i40en driver with Lewisburg 10G NIC Support
  • Intel ne1000 driver with Lewisburg 1G NIC Support
  • Intel igbn driver
  • Intel ixgben driver
  • Broadcom ntg3 driver

7. Улучшения максимумов vCenter.

Теперь у vCenter следующие максимально поддерживаемые параметры (vSphere Domains - это SSO-домены):

  • Maximum vCenter Servers per vSphere Domain: 15 (было 10)
  • Maximum ESXi Hosts per vSphere Domain: 5000 (было 4000)
  • Maximum Powered On VMs per vSphere Domain: 50,000 (было 30,000)
  • Maximum Registered VMs per vSphere Domain: 70,000 (было 50,000)

8. Другие улучшения vCenter.

  • Интерфейс установщика vCenter Server Appliance (vCSA) доступен для Microsoft Windows 2012 x64, Microsoft Windows 2012 R2 x64, Microsoft Windows 2016 x64 и macOS Sierra.
  • TcServer заменен на Tomcat 8.5.8.
  • Поддержка кастомизации гостевой ОС Ubuntu 17.04.
  • Возможность использования vSphere Update Manager для обновления кластеров vSAN 6.6.1.

  • Поддержка внешних СУБД Microsoft SQL Server 2016, Microsoft SQL Server 2016 SP1 и Microsoft SQL Server 2014 SP2.

Кстати, это последний релиз который поддерживает сторонние виртуальные распределенные коммутаторы, такие как IBM DVS 5000v, HPE 5900v или Cisco Nexus 1000v. В следующем релизе их больше нельзя будет использовать, поэтому осваивайте vDS от VMware. Более подробная информация об этом приведена в KB 2149722.

Скачать VMware vSphere 6.5 Update 1 можно по этой ссылке. Ну и еще несколько полезных ссылок для продуктов, которые были обновлены одновременно с основной платформой:


Таги: VMware, vSphere, Update, ESXi, vCenter

Вышла новая версия клиента VMware vSphere Client 3.17.


На днях компания VMware выпустила очередное обновление главного клиента для управления виртуальной инфраструктурой - VMware vSphere Client 3.17. Напомним, что этот клиент на базе технологии HTML5 скоро заменит собой устаревший vSphere Web Client. О прошлой версии vSphere Client 3.16, которая вышла пару недель назад, мы писали вот тут.

Давайте взглянем на новые возможности VMware vSphere Client 3.17:

  • Функции создания новой политики хранения ВМ (VM Storage Policy). Пока в рамках данной версии клиента можно делать следующие вещи:
    • Миграция Host Networking на распределенный коммуатор Distributed Switch.
    • Настроить адрес шлюза на адаптерах VMkernel (только в ESXi 6.5).
    • Поддержка механизма управления трафиком Network I/O Control v3.
    • Настройки опций аппаратного обеспечения при клонировании ВМ или развертывании ее из шаблона.
    • Создание политик хранения для томов VVol.
  • Также были сделаны следующие улучшения:
    • Оповещение при изменении настроек ВМ или операциях со снапшотами, что машина управляется данным клиентом.
    • Предупреждение, если свободного места на датасторе осталось меньше, чем размер файла, который пользователь пытается залить на датастор.

Скачать тонкий клиент VMware vSphere Client 3.17 можно по этой ссылке.


Таги: VMware, vSphere, Client, Update, Labs

Новое на VMware Labs - утилита DRS Lens для более глубокого понимания механизма балансировки нагрузки.


На сайте проекта VMware Labs появилась очередная заслуживающая внимания утилита DRS Lens, поставляемая в виде виртуального модуля (Virtual Appliance). Она позволяет администраторам виртуальных инфраструктур получить больше информации о работе механизма балансировки нагрузки на хост-серверы VMware vSphere DRS.

Полученная информация располагается на 5 дэшбордах, которые дают представление о различных аспектах DRS.

Summary

Это вкладка с общей информацией. Тут агрегируются данные с других разделов в удобное представление для администратора.

Cluster Balance

Здесь размещен график, показывающий отклонения метрики баланса кластера во временном промежутке, в котором работает DRS. Тут можно определить точки, в которых DRS реагирует на дисбаланс в кластере и перемещает виртуальные машины между хостами.

VM Happiness

На этом дэшборде впервые можно увидеть метрику VM happiness в графическом интерфейсе. Здесь представлена диаграмма, показывающая число ВМ, которые "счастливы" в кластере (то есть работают под нормальной нагрузкой) и число тех, которые "несчастны" (работают в стрессовых условиях при недостатке ресурсов). Пользователь может выбирать отдельные ВМ для просмотра метрик производительности, которые влияют на VM happiness, такие как %CPU ready, memory swapped и т.п.

vMotions

Этот дэшборд предоставляет суммаризованную информацию о миграциях vMotion, которые происходили в кластере по инициативе DRS или пользователя. Для каждого временного периода можно посмотреть разбивку миграций по каждому из этих двух видов. Это не только позволяет наблюдать за количественными показателями работы DRS в миграциях, но и оценить, не делают ли администраторы слишком много миграций vMotion, что влияет на баланс кластера.

Operations

На этом дэшборде можно отслеживать различные операции (задачи на стороне vCenter Server), которые выполнялись с течением времени. Администраторы могут сопоставлять информацию о задачах с этого дэшборда с данными других вкладок.

Все эти вещи позволят более детально ответить на вопрос - а что же именно и когда механизм DRS делает с виртуальными машинами при перемещении между хост-серверами ESXi.

Скачать VMware DRS Lens можно по этой ссылке. После развертывания виртуального модуля утилитой можно пользоваться по следующим адресам:

https://<appliance-ip>/drs/app

http://<appliance-ip>:8080/drs/app


Таги: VMware, Labs, DRS, vSphere, VMachines, Virtual Appliance

VMware vSphere VMkernel Observations (VOBs) - как создавать кастомные алармы для различных событий (alarms).


В VMware vSphere есть механизм для создания и анализа кастомных алармов - VMkernel Observations (VOBs). VOB'ы - это системные события, которые можно использовать для пользовательских алармов в целях отладки различных аспектов виртуальной инфраструктуры (сетевого взаимодействия, кластеров vSAN, производительности и т.п.).

Чтобы добавить такой аларм, нужно знать его уникальный идентификатор (ID), ассоциированный с конкретным типом события. Эти события и их ID можно посмотреть в следующем файле на хосте ESXi:

/usr/lib/vmware/hostd/extensions/hostdiag/locale/en/event.vmsg

Если же такой аларм срабатывает, то он записывается в следующий лог-файл:

/var/log/vobd.log

Для того, чтобы создать кастомный аларм на основе VOB, нужно при создании нового аларма выбрать пункт "specific event occuring on this object":

И далее добавить соответствующий идентификатор, например, такой:

esx.problem.vob.vsan.pdl.offline

Событий, для которых можно создать кастомные алармы, очень много. Вот некоторые из них:

VOB ID VOB Description
esx.audit.vsan.clustering.enabled VSAN clustering services have been enabled.
esx.clear.vob.vsan.pdl.online VSAN device has come online.
esx.clear.vsan.clustering.enabled VSAN clustering services have now been enabled.
esx.clear.vsan.vsan.network.available VSAN now has at least one active network configuration.
esx.clear.vsan.vsan.vmknic.ready A previously reported vmknic now has a valid IP.
esx.problem.vob.vsan.lsom.componentthreshold VSAN Node: Near node component count limit.
esx.problem.vob.vsan.lsom.diskerror VSAN device is under permanent error.
esx.problem.vob.vsan.lsom.diskgrouplimit Failed to create a new disk group.
esx.problem.vob.vsan.lsom.disklimit Failed to add disk to disk group.
esx.problem.vob.vsan.pdl.offline VSAN device has gone offline.
esx.problem.vsan.clustering.disabled VSAN clustering services have been disabled.
esx.problem.vsan.lsom.congestionthreshold VSAN device Memory/SSD congestion has changed.
esx.problem.vsan.net.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. Network is not ready.
esx.problem.vsan.net.redundancy.lost VSAN doesn't haven any redundancy in its network configuration.
esx.problem.vsan.net.redundancy.reduced VSAN is operating on reduced network redundancy.
esx.problem.vsan.no.network.connectivity VSAN doesn't have any networking configuration for use.
esx.problem.vsan.vmknic.not.ready A vmknic added to VSAN network configuration doesn't have valid IP. It will not be in use.
ad.event.ImportCertEvent Import certificate success
ad.event.ImportCertFailedEvent Import certificate failure
ad.event.JoinDomainEvent Join domain success
ad.event.JoinDomainFailedEvent Join domain failure
ad.event.LeaveDomainEvent Leave domain success
ad.event.LeaveDomainFailedEvent Leave domain failure
com.vmware.vc.HA.CreateConfigVvolFailedEvent vSphere HA failed to create a configuration vVol for this datastore and so will not be able to protect virtual machines on the datastore until the problem is resolved. Error: {fault}
com.vmware.vc.HA.CreateConfigVvolSucceededEvent vSphere HA successfully created a configuration vVol after the previous failure
com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent Host complete datastore failure
com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent Host complete network failure
com.vmware.vc.VmCloneFailedInvalidDestinationEvent Cannot complete virtual machine clone.
com.vmware.vc.VmCloneToResourcePoolFailedEvent Cannot complete virtual machine clone.
com.vmware.vc.VmDiskConsolidatedEvent Virtual machine disks consolidation succeeded.
com.vmware.vc.VmDiskConsolidationNeeded Virtual machine disks consolidation needed.
com.vmware.vc.VmDiskConsolidationNoLongerNeeded Virtual machine disks consolidation no longer needed.
com.vmware.vc.VmDiskFailedToConsolidateEvent Virtual machine disks consolidation failed.
com.vmware.vc.datastore.UpdateVmFilesFailedEvent Failed to update VM files
com.vmware.vc.datastore.UpdatedVmFilesEvent Updated VM files
com.vmware.vc.datastore.UpdatingVmFilesEvent Updating VM Files
com.vmware.vc.ft.VmAffectedByDasDisabledEvent Fault Tolerance VM restart disabled
com.vmware.vc.guestOperations.GuestOperation Guest operation
com.vmware.vc.guestOperations.GuestOperationAuthFailure Guest operation authentication failure
com.vmware.vc.host.clear.vFlashResource.inaccessible Host's virtual flash resource is accessible.
com.vmware.vc.host.clear.vFlashResource.reachthreshold Host's virtual flash resource usage dropped below the threshold.
com.vmware.vc.host.problem.vFlashResource.inaccessible Host's virtual flash resource is inaccessible.
com.vmware.vc.host.problem.vFlashResource.reachthreshold Host's virtual flash resource usage exceeds the threshold.
com.vmware.vc.host.vFlash.VFlashResourceCapacityExtendedEvent Virtual flash resource capacity is extended
com.vmware.vc.host.vFlash.VFlashResourceConfiguredEvent Virtual flash resource is configured on the host
com.vmware.vc.host.vFlash.VFlashResourceRemovedEvent Virtual flash resource is removed from the host
com.vmware.vc.host.vFlash.defaultModuleChangedEvent Default virtual flash module is changed to {vFlashModule} on the host
com.vmware.vc.host.vFlash.modulesLoadedEvent Virtual flash modules are loaded or reloaded on the host
com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent Virtual NIC entered passthrough mode
com.vmware.vc.npt.VmAdapterExitedPassthroughEvent Virtual NIC exited passthrough mode
com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent FT Disabled VM protected as non-FT VM
com.vmware.vc.vcp.FtFailoverEvent Failover FT VM due to component failure
com.vmware.vc.vcp.FtFailoverFailedEvent FT VM failover failed
com.vmware.vc.vcp.FtSecondaryRestartEvent Restarting FT secondary due to component failure
com.vmware.vc.vcp.FtSecondaryRestartFailedEvent FT secondary VM restart failed
com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent Need secondary VM protected as non-FT VM
com.vmware.vc.vcp.TestEndEvent VM Component Protection test ends
com.vmware.vc.vcp.TestStartEvent VM Component Protection test starts
com.vmware.vc.vcp.VcpNoActionEvent No action on VM
com.vmware.vc.vcp.VmDatastoreFailedEvent Virtual machine lost datastore access
com.vmware.vc.vcp.VmNetworkFailedEvent Virtual machine lost VM network accessibility
com.vmware.vc.vcp.VmPowerOffHangEvent VM power off hang
com.vmware.vc.vcp.VmRestartEvent Restarting VM due to component failure
com.vmware.vc.vcp.VmRestartFailedEvent Virtual machine affected by component failure failed to restart
com.vmware.vc.vcp.VmWaitForCandidateHostEvent No candidate host to restart
com.vmware.vc.vm.VmStateFailedToRevertToSnapshot Failed to revert the virtual machine state to a snapshot
com.vmware.vc.vm.VmStateRevertedToSnapshot The virtual machine state has been reverted to a snapshot
com.vmware.vc.vmam.AppMonitoringNotSupported Application Monitoring Is Not Supported
com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent vSphere HA detected application heartbeat status change
com.vmware.vc.vmam.VmAppHealthStateChangedEvent vSphere HA detected application state change
com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent vSphere HA detected application heartbeat failure
esx.audit.agent.hostd.started VMware Host Agent started
esx.audit.agent.hostd.stopped VMware Host Agent stopped
esx.audit.dcui.defaults.factoryrestore Restoring factory defaults through DCUI.
esx.audit.dcui.disabled The DCUI has been disabled.
esx.audit.dcui.enabled The DCUI has been enabled.
esx.audit.dcui.host.reboot Rebooting host through DCUI.
esx.audit.dcui.host.shutdown Shutting down host through DCUI.
esx.audit.dcui.hostagents.restart Restarting host agents through DCUI.
esx.audit.dcui.login.failed Login authentication on DCUI failed
esx.audit.dcui.login.passwd.changed DCUI login password changed.
esx.audit.dcui.network.factoryrestore Factory network settings restored through DCUI.
esx.audit.dcui.network.restart Restarting network through DCUI.
esx.audit.esxcli.host.poweroff Powering off host through esxcli
esx.audit.esxcli.host.reboot Rebooting host through esxcli
esx.audit.esximage.hostacceptance.changed Host acceptance level changed
esx.audit.esximage.install.novalidation Attempting to install an image profile with validation disabled.
esx.audit.esximage.install.securityalert SECURITY ALERT: Installing image profile.
esx.audit.esximage.profile.install.successful Successfully installed image profile.
esx.audit.esximage.profile.update.successful Successfully updated host to new image profile.
esx.audit.esximage.vib.install.successful Successfully installed VIBs.
esx.audit.esximage.vib.remove.successful Successfully removed VIBs
esx.audit.host.boot Host has booted.
esx.audit.host.maxRegisteredVMsExceeded The number of virtual machines registered on the host exceeded limit.
esx.audit.host.stop.reboot Host is rebooting.
esx.audit.host.stop.shutdown Host is shutting down.
esx.audit.lockdownmode.disabled Administrator access to the host has been enabled.
esx.audit.lockdownmode.enabled Administrator access to the host has been disabled.
esx.audit.maintenancemode.canceled The host has canceled entering maintenance mode.
esx.audit.maintenancemode.entered The host has entered maintenance mode.
esx.audit.maintenancemode.entering The host has begun entering maintenance mode.
esx.audit.maintenancemode.exited The host has exited maintenance mode.
esx.audit.net.firewall.config.changed Firewall configuration has changed.
esx.audit.net.firewall.disabled Firewall has been disabled.
esx.audit.net.firewall.enabled Firewall has been enabled for port.
esx.audit.net.firewall.port.hooked Port is now protected by Firewall.
esx.audit.net.firewall.port.removed Port is no longer protected with Firewall.
esx.audit.net.lacp.disable LACP disabled
esx.audit.net.lacp.enable LACP eabled
esx.audit.net.lacp.uplink.connected uplink is connected
esx.audit.shell.disabled The ESXi command line shell has been disabled.
esx.audit.shell.enabled The ESXi command line shell has been enabled.
esx.audit.ssh.disabled SSH access has been disabled.
esx.audit.ssh.enabled SSH access has been enabled.
esx.audit.usb.config.changed USB configuration has changed.
esx.audit.uw.secpolicy.alldomains.level.changed Enforcement level changed for all security domains.
esx.audit.uw.secpolicy.domain.level.changed Enforcement level changed for security domain.
esx.audit.vmfs.lvm.device.discovered LVM device discovered.
esx.audit.vmfs.volume.mounted File system mounted.
esx.audit.vmfs.volume.umounted LVM volume un-mounted.
esx.clear.coredump.configured A vmkcore disk partition is available and/or a network coredump server has been configured.  Host core dumps will be saved.
esx.clear.coredump.configured2 At least one coredump target has been configured. Host core dumps will be saved.
esx.clear.net.connectivity.restored Restored network connectivity to portgroups
esx.clear.net.dvport.connectivity.restored Restored Network Connectivity to DVPorts
esx.clear.net.dvport.redundancy.restored Restored Network Redundancy to DVPorts
esx.clear.net.lacp.lag.transition.up lag transition up
esx.clear.net.lacp.uplink.transition.up uplink transition up
esx.clear.net.lacp.uplink.unblocked uplink is unblocked
esx.clear.net.redundancy.restored Restored uplink redundancy to portgroups
esx.clear.net.vmnic.linkstate.up Link state up
esx.clear.scsi.device.io.latency.improved Scsi Device I/O Latency has improved
esx.clear.scsi.device.state.on Device has been turned on administratively.
esx.clear.scsi.device.state.permanentloss.deviceonline Device that was permanently inaccessible is now online.
esx.clear.storage.apd.exit Exited the All Paths Down state
esx.clear.storage.connectivity.restored Restored connectivity to storage device
esx.clear.storage.redundancy.restored Restored path redundancy to storage device
esx.problem.3rdParty.error A 3rd party component on ESXi has reported an error.
esx.problem.3rdParty.information A 3rd party component on ESXi has reported an informational event.
esx.problem.3rdParty.warning A 3rd party component on ESXi has reported a warning.
esx.problem.apei.bert.memory.error.corrected A corrected memory error occurred
esx.problem.apei.bert.memory.error.fatal A fatal memory error occurred
esx.problem.apei.bert.memory.error.recoverable A recoverable memory error occurred
esx.problem.apei.bert.pcie.error.corrected A corrected PCIe error occurred
esx.problem.apei.bert.pcie.error.fatal A fatal PCIe error occurred
esx.problem.apei.bert.pcie.error.recoverable A recoverable PCIe error occurred
esx.problem.application.core.dumped An application running on ESXi host has crashed and a core file was created.
esx.problem.boot.filesystem.down Lost connectivity to the device backing the boot filesystem
esx.problem.coredump.capacity.insufficient The storage capacity of the coredump targets is insufficient to capture a complete coredump.
esx.problem.coredump.unconfigured No vmkcore disk partition is available and no network coredump server has been configured.  Host core dumps cannot be saved.
esx.problem.coredump.unconfigured2 No coredump target has been configured. Host core dumps cannot be saved.
esx.problem.cpu.amd.mce.dram.disabled DRAM ECC not enabled. Please enable it in BIOS.
esx.problem.cpu.intel.ioapic.listing.error Not all IO-APICs are listed in the DMAR. Not enabling interrupt remapping on this platform.
esx.problem.cpu.mce.invalid MCE monitoring will be disabled as an unsupported CPU was detected. Please consult the ESX HCL for information on supported hardware.
esx.problem.cpu.smp.ht.invalid Disabling HyperThreading due to invalid configuration: Number of threads: {1} Number of PCPUs: {2}.
esx.problem.cpu.smp.ht.numpcpus.max Found {1} PCPUs but only using {2} of them due to specified limit.
esx.problem.cpu.smp.ht.partner.missing Disabling HyperThreading due to invalid configuration: HT partner {1} is missing from PCPU {2}.
esx.problem.dhclient.lease.none Unable to obtain a DHCP lease.
esx.problem.dhclient.lease.offered.noexpiry No expiry time on offered DHCP lease.
esx.problem.esximage.install.error Could not install image profile.
esx.problem.esximage.install.invalidhardware Host doesn't meet image profile hardware requirements.
esx.problem.esximage.install.stage.error Could not stage image profile.
esx.problem.hardware.acpi.interrupt.routing.device.invalid Skipping interrupt routing entry with bad device number: {1}. This is a BIOS bug.
esx.problem.hardware.acpi.interrupt.routing.pin.invalid Skipping interrupt routing entry with bad device pin: {1}. This is a BIOS bug.
esx.problem.hardware.ioapic.missing IOAPIC Num {1} is missing. Please check BIOS settings to enable this IOAPIC.
esx.problem.host.coredump An unread host kernel core dump has been found.
esx.problem.hostd.core.dumped Hostd crashed and a core file was created.
esx.problem.iorm.badversion Storage I/O Control version mismatch
esx.problem.iorm.nonviworkload Unmanaged workload detected on SIOC-enabled datastore
esx.problem.migrate.vmotion.default.heap.create.failed Failed to create default migration heap
esx.problem.migrate.vmotion.server.pending.cnx.listen.socket.shutdown Error with migration listen socket
esx.problem.net.connectivity.lost Lost Network Connectivity
esx.problem.net.dvport.connectivity.lost Lost Network Connectivity to DVPorts
esx.problem.net.dvport.redundancy.degraded Network Redundancy Degraded on DVPorts
esx.problem.net.dvport.redundancy.lost Lost Network Redundancy on DVPorts
esx.problem.net.e1000.tso6.notsupported No IPv6 TSO support
esx.problem.net.fence.port.badfenceid Invalid fenceId configuration on dvPort
esx.problem.net.fence.resource.limited Maximum number of fence networks or ports
esx.problem.net.fence.switch.unavailable Switch fence property is not set
esx.problem.net.firewall.config.failed Firewall configuration operation failed. The changes were not applied.
esx.problem.net.firewall.port.hookfailed Adding port to Firewall failed.
esx.problem.net.gateway.set.failed Failed to set gateway
esx.problem.net.heap.belowthreshold Network memory pool threshold
esx.problem.net.lacp.lag.transition.down lag transition down
esx.problem.net.lacp.peer.noresponse No peer response
esx.problem.net.lacp.policy.incompatible Current teaming policy is incompatible
esx.problem.net.lacp.policy.linkstatus Current teaming policy is incompatible
esx.problem.net.lacp.uplink.blocked uplink is blocked
esx.problem.net.lacp.uplink.disconnected uplink is disconnected
esx.problem.net.lacp.uplink.fail.duplex uplink duplex mode is different
esx.problem.net.lacp.uplink.fail.speed uplink speed is different
esx.problem.net.lacp.uplink.inactive All uplinks must be active
esx.problem.net.lacp.uplink.transition.down uplink transition down
esx.problem.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
esx.problem.net.migrate.unsupported.latency Unsupported vMotion network latency detected
esx.problem.net.portset.port.full Failed to apply for free ports
esx.problem.net.portset.port.vlan.invalidid Vlan ID of the port is invalid
esx.problem.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
esx.problem.net.redundancy.degraded Network Redundancy Degraded
esx.problem.net.redundancy.lost Lost Network Redundancy
esx.problem.net.uplink.mtu.failed Failed to set MTU on an uplink
esx.problem.net.vmknic.ip.duplicate A duplicate IP address was detected on a vmknic interface
esx.problem.net.vmnic.linkstate.down Link state down
esx.problem.net.vmnic.linkstate.flapping Link state unstable
esx.problem.net.vmnic.watchdog.reset Nic Watchdog Reset
esx.problem.ntpd.clock.correction.error NTP daemon stopped.  Time correction out of bounds.
esx.problem.pageretire.platform.retire.request Memory page retirement requested by platform firmware.
esx.problem.pageretire.selectedmpnthreshold.host.exceeded Number of host physical memory pages selected for retirement exceeds threshold.
esx.problem.scratch.partition.size.small Size of scratch partition is too small.
esx.problem.scratch.partition.unconfigured No scratch partition has been configured.
esx.problem.scsi.apd.event.descriptor.alloc.failed No memory to allocate APD Event
esx.problem.scsi.device.close.failed Scsi Device close failed.
esx.problem.scsi.device.detach.failed Device detach failed
esx.problem.scsi.device.filter.attach.failed Failed to attach filter to device.
esx.problem.scsi.device.io.bad.plugin.type Plugin trying to issue command to device does not have a valid storage plugin type.
esx.problem.scsi.device.io.inquiry.failed Failed to obtain INQUIRY data from the device
esx.problem.scsi.device.io.invalid.disk.qfull.value Scsi device queue parameters incorrectly set.
esx.problem.scsi.device.io.latency.high Scsi Device I/O Latency going high
esx.problem.scsi.device.io.qerr.change.config QErr cannot be changed on device. Please change it manually on the device if possible.
esx.problem.scsi.device.io.qerr.changed Scsi Device QErr setting changed
esx.problem.scsi.device.is.local.failed Plugin's isLocal entry point failed
esx.problem.scsi.device.is.pseudo.failed Plugin's isPseudo entry point failed
esx.problem.scsi.device.is.ssd.failed Plugin's isSSD entry point failed
esx.problem.scsi.device.limitreached Maximum number of storage devices
esx.problem.scsi.device.state.off Device has been turned off administratively.
esx.problem.scsi.device.state.permanentloss Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.noopens Permanently inaccessible device has no more opens.
esx.problem.scsi.device.state.permanentloss.pluggedback Device has been plugged back in after being marked permanently inaccessible.
esx.problem.scsi.device.state.permanentloss.withreservationheld Device has been removed or is permanently inaccessible.
esx.problem.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
esx.problem.scsi.scsipath.badpath.unreachpe vVol PE path going out of vVol-incapable adapter
esx.problem.scsi.scsipath.badpath.unsafepe Cannot safely determine vVol PE
esx.problem.scsi.scsipath.limitreached Maximum number of storage paths
esx.problem.scsi.unsupported.plugin.type Storage plugin of unsupported type tried to register.
esx.problem.storage.apd.start All paths are down
esx.problem.storage.apd.timeout All Paths Down timed out, I/Os will be fast failed
esx.problem.storage.connectivity.devicepor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.lost Lost Storage Connectivity
esx.problem.storage.connectivity.pathpor Frequent PowerOn Reset Unit Attention of Storage Path
esx.problem.storage.connectivity.pathstatechanges Frequent State Changes of Storage Path
esx.problem.storage.iscsi.discovery.connect.error iSCSI discovery target login connection problem
esx.problem.storage.iscsi.discovery.login.error iSCSI Discovery target login error
esx.problem.storage.iscsi.isns.discovery.error iSCSI iSns Discovery error
esx.problem.storage.iscsi.target.connect.error iSCSI Target login connection problem
esx.problem.storage.iscsi.target.login.error iSCSI Target login error
esx.problem.storage.iscsi.target.permanently.lost iSCSI target permanently removed
esx.problem.storage.redundancy.degraded Degraded Storage Path Redundancy
esx.problem.storage.redundancy.lost Lost Storage Path Redundancy
esx.problem.syslog.config System logging is not configured.
esx.problem.syslog.nonpersistent System logs are stored on non-persistent storage.
esx.problem.vfat.filesystem.full.other A VFAT filesystem is full.
esx.problem.vfat.filesystem.full.scratch A VFAT filesystem, being used as the host's scratch partition, is full.
esx.problem.visorfs.failure An operation on the root filesystem has failed.
esx.problem.visorfs.inodetable.full The root filesystem's file table is full.
esx.problem.visorfs.ramdisk.full A ramdisk is full.
esx.problem.visorfs.ramdisk.inodetable.full A ramdisk's file table is full.
esx.problem.vm.kill.unexpected.fault.failure A VM could not fault in the a page. The VM is terminated as further progress is impossible.
esx.problem.vm.kill.unexpected.forcefulPageRetire A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.noSwapResponse A VM did not respond to swap actions and is forcefully powered off to prevent system instability.
esx.problem.vm.kill.unexpected.vmtrack A VM is allocating too many pages while system is critically low in free memory. It is forcefully terminated to prevent system instability.
esx.problem.vmfs.ats.support.lost Device Backing VMFS has lost ATS Support
esx.problem.vmfs.error.volume.is.locked VMFS Locked By Remote Host
esx.problem.vmfs.extent.offline Device backing an extent of a file system is offline.
esx.problem.vmfs.extent.online Device backing an extent of a file system came online
esx.problem.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
esx.problem.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
esx.problem.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
esx.problem.vmfs.journal.createfailed No Space To Create VMFS Journal
esx.problem.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
esx.problem.vmfs.lock.corruptondisk.v2 VMFS Lock Corruption Detected
esx.problem.vmfs.nfs.mount.connect.failed Unable to connect to NFS server
esx.problem.vmfs.nfs.mount.limit.exceeded NFS has reached the maximum number of supported volumes
esx.problem.vmfs.nfs.server.disconnect Lost connection to NFS server
esx.problem.vmfs.nfs.server.restored Restored connection to NFS server
esx.problem.vmfs.resource.corruptondisk VMFS Resource Corruption Detected
esx.problem.vmsyslogd.remote.failure Remote logging host has become unreachable.
esx.problem.vmsyslogd.storage.failure Logging to storage has failed.
esx.problem.vmsyslogd.storage.logdir.invalid The configured log directory cannot be used.  The default directory will be used instead.
esx.problem.vmsyslogd.unexpected Log daemon has failed for an unexpected reason.
esx.problem.vpxa.core.dumped Vpxa crashed and a core file was created.
hbr.primary.AppQuiescedDeltaCompletedEvent Application consistent delta completed.
hbr.primary.ConnectionRestoredToHbrServerEvent Connection to VR Server restored.
hbr.primary.DeltaAbortedEvent Delta aborted.
hbr.primary.DeltaCompletedEvent Delta completed.
hbr.primary.DeltaStartedEvent Delta started.
hbr.primary.FSQuiescedDeltaCompletedEvent File system consistent delta completed.
hbr.primary.FSQuiescedSnapshot Application quiescing failed during replication.
hbr.primary.FailedToStartDeltaEvent Failed to start delta.
hbr.primary.FailedToStartSyncEvent Failed to start full sync.
hbr.primary.HostLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.InvalidDiskReplicationConfigurationEvent Disk replication configuration is invalid.
hbr.primary.InvalidVmReplicationConfigurationEvent Virtual machine replication configuration is invalid.
hbr.primary.NoConnectionToHbrServerEvent No connection to VR Server.
hbr.primary.NoProgressWithHbrServerEvent VR Server error: {reason.@enum.hbr.primary.ReasonForNoServerProgress}
hbr.primary.QuiesceNotSupported Quiescing is not supported for this virtual machine.
hbr.primary.SyncCompletedEvent Full sync completed.
hbr.primary.SyncStartedEvent Full sync started.
hbr.primary.SystemPausedReplication System has paused replication.
hbr.primary.UnquiescedDeltaCompletedEvent Delta completed.
hbr.primary.UnquiescedSnapshot Unable to quiesce the guest.
hbr.primary.VmLicenseFailedEvent vSphere Replication is not licensed replication is disabled.
hbr.primary.VmReplicationConfigurationChangedEvent Replication configuration changed.
vim.event.LicenseDowngradedEvent License downgrade
vim.event.SystemSwapInaccessible System swap inaccessible
vim.event.UnsupportedHardwareVersionEvent This virtual machine uses hardware version {version} which is no longer supported. Upgrade is recommended.
vprob.net.connectivity.lost Lost Network Connectivity
vprob.net.e1000.tso6.notsupported No IPv6 TSO support
vprob.net.migrate.bindtovmk Invalid vmknic specified in /Migrate/Vmknic
vprob.net.proxyswitch.port.unavailable Virtual NIC connection to switch failed
vprob.net.redundancy.degraded Network Redundancy Degraded
vprob.net.redundancy.lost Lost Network Redundancy
vprob.scsi.device.thinprov.atquota Thin Provisioned Device Nearing Capacity
vprob.storage.connectivity.lost Lost Storage Connectivity
vprob.storage.redundancy.degraded Degraded Storage Path Redundancy
vprob.storage.redundancy.lost Lost Storage Path Redundancy
vprob.vmfs.error.volume.is.locked VMFS Locked By Remote Host
vprob.vmfs.extent.offline Device backing an extent of a file system is offline.
vprob.vmfs.extent.online Device backing an extent of a file system is online.
vprob.vmfs.heartbeat.recovered VMFS Volume Connectivity Restored
vprob.vmfs.heartbeat.timedout VMFS Volume Connectivity Degraded
vprob.vmfs.heartbeat.unrecoverable VMFS Volume Connectivity Lost
vprob.vmfs.journal.createfailed No Space To Create VMFS Journal
vprob.vmfs.lock.corruptondisk VMFS Lock Corruption Detected
vprob.vmfs.nfs.server.disconnect Lost connection to NFS server
vprob.vmfs.nfs.server.restored Restored connection to NFS server
vprob.vmfs.resource.corruptondisk VMFS Resource Corruption Detected

Ну а вот так вот будет выглядеть сработавший кастомный аларм в интерфейсе VMware vSphere Web Client:


Таги: VMware, vSphere, Troubleshooting, ESXi

Обновленная версия VMware vSphere Client 3.16 - немалого новых функций.


Компания VMware продолжает обновлять свой веб-клиент для управления виртуальной инфраструктурой на базе технологии HTML 5 и, в принципе, к предстоящему VMworld 2017 должна уже выпустить его релизную версию. Напомним, что о прошлой версии клиента vSphere Client 3.15 мы писали вот тут.

В обновлении VMware vSphere Client 3.16 появилось немало новых возможностей и улучшений. Давайте посмотрим на них:

  • Создание новой политики хранения (VM Storage Policy). Пока эта функция имеет ограничения:
    • Создание политики vSAN Policy (без тэгов)
    • Создание политики с тэгами и основными правилами
  • Улучшения распределенного коммутатора Distributed Switch
    • Управление физическими сетевыми адаптерами на уровне хоста ESXi
    • Поддержка LACP - просмотр групп link aggregation на распределенном коммутаторе
    • Поддержка SR-IOV - включение/выключение этой технологии на сетевых адаптерах, которые ее поддерживают
  • Компонент Content Library (импорт в библиотеку пока не работает)
    • Тэги, заметки и портлет подписки и публикации
    • Изменение настроек библиотек контента
    • Удаление библиотек
    • Функция синхронизации
  • Прочие улучшения
    • Выбор стека TCP/IP при создании нового сетевого адаптера VMkernel
    • Исправления ошибок

Скачать VMware vSphere Client 3.16 можно по этой ссылке. Инструкция по его развертыванию доступна тут.


Таги: VMware, vSphere, Client, Update

Использование кластеров VMware HA/DRS с разными версиями ESXi.


Спустя 8 лет, опять поднимем тему использования кластеров VMware HA/DRS, в которых, по каким-либо причинам, оказались разные версии хост-серверов VMware ESXi. Такой режим работы кластеров допускается со стороны VMware, но при определенных условиях.

Первая и самая важная вещь - совместимость виртуального аппаратного обеспечения виртуальных машин (Virtual Hardware Version), которое увеличивает свою версию с каждым мажорным релизом ESXi. Правило тут простое - более новые версии ESXi могут запускать и исполнять виртуальные машины более старых версий, а вот старые хосты ESXi более новое для себя "виртуальное железо" не запустят.

Данный момент проясняет табличка из KB 2007240:

Обратите внимание, что, например, ВМ с версией HW 11 вы не запустите на ESXi 5.5. Поэтому выход такой - не обновлять старое виртуальное аппаратное обеспечение виртуальных машин, даже если они переехали за счет vMotion на хосты с более новой версией HW.

Второй момент - VMware Tools. Тут уже проще - старую версию тулзов можно эксплуатировать на новых хостах, как и новую на старых - обратная совместимость тоже есть. Убедиться в этом можно с помощью онлайн-утилиты VMware Product Interoperability Matrices, где в поле "Select a Solution" надо выбрать VMware Tools, а в поле "Add Platform/Solution" - платформу VMware vSphere Hypervisor (ESXi):

Но обратная совместимость тоже не бесконечная - VMware Tools версии 10.1.5, как мы видим, не получится использовать на VMware vSphere 5.1 Update 3.

Кстати, чтобы обновить VMware Tools, можно переместить ВМ с помощью vMotion на хост ESXi с более высокой версией и выбрать пункт "Install/Upgrade VMware Tools" в vSphere Web Client.

Второй способ обновления VMware Tools - это просто скачать их по ссылке с официального репозитория для вашей гостевой ОС:

https://packages.vmware.com/tools/esx/index.html

Ну и третий, заключительный, но самый важный момент при использовании смешанных кластеров (VMware их называет mixed clusters) - это возможности VMware HA, DRS, FT и прочих функций, которые предоставляет соответствующая версия ПО от VMware.

Например, в версии vSphere 6.5 появилось много нового с точки зрения технологии HA (к примеру, механизм Admission Control стал рассчитывать параметры для несбалансированных кластеров автоматически).

Поэтому самый простой и эффективный выход - это смешанные кластеры не создавать, а создать два разных кластера - для старых и для новых хост-серверов. Да, это может вам стоить в каком-то случае на один хост больше, но это того стоит.


Таги: VMware, Cluster, vSphere, ESXi, VMachines, Tools, Hardware, Compatibility

VM Deployer - для тех, у кого не получается установить виртуальный модуль OVA/OVF самостоятельно.


Интересная утилита VM Deployer обнаружилась у компании DoubleCloud. Они ее сделали потому, что у их пользователей не получалось установить виртуальный модуль (Virtual Appliance) в формате OVF с основным продуктом компании vSearch Appliance.

При этом VM Deployer подходит для любого виртуального модуля в формате OVA или OVF, который не получается развернуть через vSphere Web Client. при этом не хочется использовать консольные команды для установки, где можно ошибиться в путях, наборе параметров и другом.

VM Deployer 1.1 представляет собой Java-приложение с графическим интерфейсом, которое не требует установки и позволяет интегрировать виртуальный модуль в инфраструктуру предприятия.

Вот его основные особенности:

  • Не требующий установки продукт с графическим интерфейсом для платформ Windows, Mac, Linux (плюс любая ОС, где поддерживается Java).
  • Поможет установить как OVA, так и OVF (свойства обоих форматов поддерживаются).
  • Работает как на vCenter, так и для отдельных ESXi для версий vSphere 4.0 - 6.5.
  • Не нужно вручную вбивать в консольную команду папку, хост, датастор, сеть, а можно просто их выбрать в соответствующих полях ввода.
  • Быстрое развертывание модуля за счет оптимизации обращения к API.
  • Почти не занимает место - всего 2,5 МБ.

Загрузить VM Deployer 1.1 можно по этой ссылке (надо промотать страницу пониже).


Таги: VMware, vSphere, Virtual Appliance, OVA, OVF

Обновился VMware vSphere Client до версии 3.15 - новые возможности и улучшения.


На днях компания VMware обновила свой главный клиент для управления виртуальной инфраструктурой до версии VMware vSphere Client 3.15 (напомним, что он построен на основе технологии HTML 5). Несмотря на то, что он еще много чего не умеет, в скором времени он заменит более медленный vSphere Web Client, работающий на базе старой технологии Adobe Air.

Последний раз мы писали о vSphere Client версии 3.13, поэтому приведем ниже основные возможности и улучшения последних двух версий клиента:

  • Создание виртуальной машины с прицеплением к ней существующего виртуального диска vmdk.
  • Создание ВМ с диском типа RDM.
  • Совместимость с политиками хранилищ (Storage Policies), в том числе поддержка политики удаления ВМ.
  • Ссылка "More info..." для VMware Tools на странице VM Summary.
  • Действие "Customize Guest OS" для виртуальной машины. Для этого действия добавлены валидация и проверка пермиссий для мастеров Clone/Deploy VM.
  • Нотификация для выполнения операций на одной или нескольких ВМ.
  • Добавлена строчка "Managed By" в описании, что показывает, что хост находится под управлением vSphere Client.
  • Создание ВМ с кастомной политикой управления питанием (Power Management, задается на странице Customize Hardware > VM Options).
  • Улучшена производительность основного дэшборда.

Скачать VMware vSphere Client 3.15 можно по этой ссылке.


Таги: VMware, vSphere, Client, Update

Установка уровней сбора статистик сервера VMware vCenter и размер его базы данных.


В настройках сервера VMware vCenter можно устанавливать уровни сбора статистик, собираемых с различным интервалом и хранимых заданное время. Кроме того, можно устанавливать примерный размер виртуальной инфраструктуры в хост-серверах и виртуальных машинах, что позволит грубо оценить размер базы данных vCenter.

Зайдем в консоль vSphere Web Client, далее выберем на vCenter и идем на вкладку "Configure". В разделе Settings выбираем пункт "General" и нажимаем "Edit". Тут в разделе "Statistics" мы увидим вот такую картину:

Здесь мы видим 4 уровня статистик, которые отличаются, в первую очередь, интервалом сбора данных. Каждая из трех колонок - Interval Duration, Save For и Statistics Level - может быть изменена для соответствующего уровня.

Чем выше уровень Statistics Level, тем больше данных будет собираться. Всего тут четыре уровня, а на уровне 4 собираются самые детальные статистики (их надо использовать только для целей глубокой отладки, так как база данных vCenter будет очень быстро заполняться).

По умолчанию тут значения такие (для всех интервалов используется уровень детализации Level 1):

  • Данные, собираемые с интервалом 5 минут, хранятся в течение 1 дня.
  • Данные, собираемые с интервалом 30 минут, хранятся в течение 1 недели.
  • Данные, собираемые с интервалом 2 часа, хранятся в течение 1 месяца.
  • Данные, собираемые с интервалом 1 день, хранятся в течение 1 года.

Здесь все понятно. А правило тут простое: чем больше интервал, тем выше (цифра больше) уровень статистики нужно использовать (или тот же, что и для меньшего интервала). Например, можно поставить уровень 4 для интервала 1 день, 3 - для двух часов, 2 - для 30 минут и 1 - для 5 минут. Об этом говорит и официальная документация VMware:

The statistics level must be less than or equal to the statistics level that is set for the preceding statistics interval. This is a vCenter Server dependency.

Далее в этом окне мы видим возможность задания числа хостов и виртуальных машин в вашей инфраструктуре. В правой части "Estimated space required" можно увидеть результат задания значений - предполагаемый размер базы данных vCenter.


Таги: VMware, vCenter, Обучение, vSphere

Управление настройками VMware ESXi Embedded Host Client.


William Lam рассказал интересную штуку - настройками клиента для управления хост-серверами VMware ESXi Embedded Host Client можно управлять через Advanced Settings. Имеются в виду те параметры, которые доступны в меню Settings на хосте:

Этими конфигурациями можно управлять через расширенные настройки (Advanced Settings), которые доступны в разделе "System" клиента. Для этого используется пространство UserVars:

Несмотря на префикс этих настроек, они применяются ко всему хосту в целом, а не на уровне пользователей ESXi. Также ими можно управлять через vSphere API или любой другой vSphere SDK/CLI (устанавливать, получать дефолтное значение, а также узнавать, не перекрыты ли они).

Вот, что значат эти строчки и их дефолтные параметры:

Настройка Описание Значение по умолчанию
UserVars.HostClientCEIPOptIn Подписывать ли пользователей на программу CEIP (Customer Experience Improvement Program) для Host Client: 0 - спросить, 1 - да, 2 - нет. 0
UserVars.HostClientDefaultConsole Тип дефолтной консоли Host Client. webmks
UserVars.HostClientEnableMOTDNotification Включать ли нотификацию MOTD (сообщение дня) при логине в Host Client. 1
UserVars.HostClientEnableVisualEffects Нужны ли визуальные эффекты для Host Client. 1
UserVars.HostClientSessionTimeout Деолтный таймаут сессии Host Client в секундах. 900
UserVars.HostClientShowOnlyRecentObjects Показывать ли только последние используемые объекты Host Client или нет 1
UserVars.HostClientWelcomeMessage Приветственное сообщение, показываемое при логине в Host Client  Welcome to {{hostname}}

Таги: VMware, vSphere, Client

Утилита VMware Tools Client для взаимодействия с виртуальными машинами не через сеть.


Как знают некоторые администраторы VMware vSphere, среди интерфейсов vSphere API есть механизм взаимодействия с виртуальными машинами через VMware Tools, который называется VMware vSphere Guest API.

Утилита VMware Tools Client, написанная Pierre Laine, позволяет подключиться к виртуальной машине через этот интерфейс, загружать/скачивать с нее файлы и скрипты и исполнять их. Это может оказаться полезным, когда вы потеряли сетевой доступ к виртуальной машине (например, внутри гостевой ОС что-то отвалилось).

VMware Tools Client соединяется с сервером vCenter, получает его иерархию через vCenter Inventory Service, после чего можно работать с виртуальными машинами для следующих целей:

  • Выполнение в гостевой ОС отдельных команд (например, пинг из ВМ) или скриптов
  • Загрузка, сохранение и удаление скриптов на ВМ (а также любых других файлов)
  • Загрузка скрипта из файла

Утилита кроссплатформенная с интерфейсом на JavaFX, поэтому может быть запущена на Linux/Windows системах. Также она не требует установки. На данный момент она находится в бете версии 0.2. В составе идет база данных SQLLite, в которой хранятся логины/пароли от vCenter и виртуальных машин. Скачать VMware Tools Client можно по этой ссылке.


Таги: VMware, vSphere, API, Tools, ESXi, VMachines

Как проверить наличие хотфикса в VMware ВМ с помощью PowerCLI.


В свете последних событий, связанных с WannaCry ransomware, очень актуальным становится проверка наличия того или иного установленного патча (Patch/Hotfix/KB) внутри ОС виртуальных машин. Test-VMHotfix из моего PowerCLI Vi-Module модуля быстро и эффективно проверит все ваши ВМ. Пользоваться функцией проще простого, передайте в pipeline ВМ для проверки и шаблон названия патча в параметре -KB...
Таги: VMware, PowerCLI, Security, vSphere, VMachines

Вышел кастомизированный образ HPE Customized ESXi May 2017.


Оказывается, еще в начале мая компания HP совместно с VMware выпустила кастомизированный образ гипервизора vSphere - HPE Customized ESXi May 2017, предназначенного для установки на серверы HP.

Этот релиз для многих администраторов является важным событием, так как прошлый кастомизированный образ HPE Custom ESXi от ноября 2016 года содержал в себе некоторые проблемы, касающиеся драйверов и работы с хранилищами (в частности, наблюдалась низкая скорость записи на локальные диски). Возможно, в этом релизе данные проблемы решены, по крайней мере новый набор драйверов должен улучшить некоторые вещи.

HPE Customized ESXi May 2017 доступен для скачивания по этой ссылке. Предыдущие образы (для более ранних версий гипервизора) можно также скачать с сайта VMware по этим ссылкам:

Номера билдов и их содержимое приведены вот в этом документе HPE (там же есть ссылки на соответствующие драйвера и офлайн бандлы ESXi). Ну а руководство по кастомизированным билдам HPE Custom ESXi находится вот тут.


Таги: HP, ESXi, Update, VMware, vSphere, Hardware, Storage, Bugs

Новое на VMware Labs: образ Ubuntu OVA for Horizon для VDI-инсталляций.


Очередная полезность обновилась на VMware Labs - на этот раз это оптимизированный под виртуальную среду и готовый к развертыванию образ виртуального десктопа Ubuntu OVA for Horizon. С помощью этого виртуального модуля VDI-администраторы могут быстро развернуть инфраструктуру виртуальных ПК на Linux-платформе, получив уже все необходимые настройки и оптимизации в рамках OVA-пакета.

Особенности средства Ubuntu OVA for Horizon:

  • Базовый образ Ubuntu версии 16.04.2 LTS.
  • Виртуальное аппаратное обеспечение VMware HW v11 (для работы требуется ESXi 6.0 U2+).
  • Дефолтные имя пользователя и пароль - viewadmin/viewadmin.
  • Виртуальная машина включает 2 скрипта: horizon-optimizer.sh, который конфигурирует машину в соответствии с лучшими практиками документации по Horizon 7, а также linux-agent-installer.sh, который помогает с установкой агента Horizon View Agent.
  • Дополнительные твики и приложения, которые могут пригодиться администраторам.
  • Из-за ограничений VMware агент пока не предустановлен в этот OVA-модуль, его надо скачать вручную и запустить linux-agent-installer.sh.
  • Виртуальный модуль OVA был протестирован с инфраструктурой Windows 2003, 2008, 2012 и совместим с Samba Domains.
  • Для работы модуля потребуется vSphere 6.0 U2 или более поздняя версия, Horizon Connection Server 7.1 или более поздний, Horizon Client 4.4 или позднее.

Это уже версия 1.1 данного модуля (о первой версии мы писали вот тут). Вот что добавилось за последние 2 месяца:

  • Релиз только на основе оболочки MATE (GNOME больше не включают)
  • Увеличенная vRAM до 128 MB вместо Automatic по умолчанию
  • Удалено аудио-устройство (большинству не нужно)
  • Сетевая карта VMXNET3 по умолчанию
  • Обновленный репозиторий для open-vm-tools на Ubuntu repo
  • Добавлены зависимости Horizon 7.1 Agent
  • Обновленные пакеты зависимостей для Ubuntu 16.04 on Horizon 7.1
  • Обновлен установщик и ссылки для Horizon 7.1
  • Обновлены пакеты медиа-кодеков для Ubuntu 16.04
  • Обновлены пакеты MATE на Xenial
  • Более надежное присоединение к домену
  • Опциональная смена пароля
  • Опциональное задание таймзоны
  • Опционально ставятся десктоп-аддоны
  • Добавлены попытки повторного выполнения wget для конфиг-файлов smb и krb5
  • horizon-linux-installer.sh переименован в linux-agent-installer.sh

Скачать Ubuntu OVA for Horizon можно по этой ссылке.


Таги: VMware, Ubuntu, Virtual Appliance, Horizon, VDI, Linux, vSphere, Update

Новое на VMware Labs - Host Profiles CLI.


Недавно на сайте проекта VMware Labs появилась интересная утилита - Host Profiles CLI. Она позволяет администраторам VMware vSphere из командной строки выполнять те операции, которые недоступны в графическом интерфейсе механизма настройки хостов ESXi Host Profiles или доступны ограниченно (без средств автоматизации). Особо стоит отметить возможность совместного использования механизмов Auto Deploy и Host Profiles CLI.

Напомним, что профили хостов (Host Profiles) - это средство конфигурации серверов ESXi таким образом, что единый "золотой" профиль применялся к всем хостам, настраивая их единообразно, что уменьшает риски ошибок конфигурации, а также улучшает управляемость/обслуживание инфраструктуры и ее безопасность.

С помощью Host Profiles CLI из командной строки можно делать следующее:

  • Кастомизация stateless-хостов Auto Deploy до их загрузки и присоединения к vCenter Server.
  • Импорт/экспорт профилей хостов из локальных файлов.
  • Привязка профиля к существующему кластеру.
  • Установка единого рутового пароля в профиле или настройка профиля таким образом, чтобы использовать уникальные пароли root для каждого из хостов.
  • Настройка системного кэша (stateless, cached или stateful install).
  • Просмотр всех профилей хостов, доступных на vCenter Server.

Напомним, что начиная с vSphere 6.5, для механизма Host Profiles можно указывать параметры кастомизации отдельных хостов (IP-адреса, пароли и прочее) в CSV-файле. Но это можно делать только для хостов, которые были уже добавлены в Inventory сервера vCenter. С помощью Host Profiles CLI можно сделать прекастомизацию хостов через файлы CSV, которые будут развернуты через Auto Deploy (то есть, самих хостов пока еще нет в vCenter).

Ну и вот так можно делать импорт и экспорт профилей хостов (не пытайтесь делать импорт профиля для окружения с другим оборудованием хост-серверов):

# hostprofilescli hostprofile --profile esxi65-nfs-gen8 export --file esxi65-nfs-gen8.vpf
# hostprofilescli hostprofile --profile esxi65-nfs-gen8 import --file esxi65-nfs-gen8.vpf

А вот так можно установить пароль root для всех хостов один или свой для каждого:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 useraccount-password set --type allhosts
hostprofilescli hostprofile --profile esxi65-nfs-gen8 useraccount-password set --type perhost

Таким вот образом можно привязать профиль к кластеру:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 attach --entity dbcluster

Также посредством Host Profiles CLI можно установить тип развертывания хостов через Auto Deploy - Stateless caching (когда хост в случае массового сбоя и недоступности PXE-сервисов грузится из локальной кэшированной копии) или Stateful install (когда хост грузится с диска и уже больше не зависит от Auto Deploy). Вот как это делается:

hostprofilescli hostprofile --profile esxi65-nfs-gen8 system-image host set \
--type stateful-install --firstdisk_arguments localesx,local --ignore_ssd --overwrite_vmfs

Более подробная информация об использовании Host Profiles CLI приведена в документации. Загрузить этот интерфейс можно по этой ссылке.


Таги: VMware, Host Profiles, CLI, vSphere, Labs

Вышли VMware vSphere Client 3.12 и 3.13 - что нового?


В начале мая компания VMware выпустила очередное обновление своего основного средства для управления инфраструктурой VMware vSphere - vSphere Client 3.13. Три недели назад мы писали о нововведениях версий 3.10 и 3.11, а сегодня расскажем о новых возможностях обновлений 3.12 и 3.13.

Давайте посмотрим, что нового в vSphere Client:

  • Перекрывающие настройки распределения вычислительной нагрузки (VDRS) и нагрузки на хранилища (SDRS) могут быть теперь заданы.
  • Для виртуальных машин появилась настройка кластеров непрерывной доступности Fault Tolerance.
  • Стали доступны возможности Cross vCenter Server vMotion.
  • В списке хостов можно выбрать столбец с версией ESXi (по умолчанию не выбран).
  • Версия виртуального модуля видна в меню Help -> About VMware vSphere.
  • Доступна настройка VM Compliance для механизма политик хранилищ (Storage Policies).
  • Для распределенного коммутатора появились возможности добавления хостов и управления ими.
  • Появилось действие Check Policy compliance для политик хранения машины (VM Storage Policy).
  • Возможность создания новой виртуальной машины с кастомными VMware Tools и опциями загрузки (устанавливаются на странице Customize Hardware > VM Options).
  • Улучшения для пользователей с ограниченными пермиссиями при конфигурации ВМ.

Загрузить VMware vSphere Client 3.13 можно по этой ссылке.


Таги: VMware, vSphere, Client, Update

Что такое безопасная загрузка (Secure Boot) в VMware ESXi 6.5, и как она работает.


Некоторые из вас помнят, что в VMware vSphere 6.5 одной из новых возможностей гипервизора ESXi 6.5 стала функция его безопасной загрузки (Secure Boot). Об этом мы уже упоминали в посте с видеороликами о новых возможностях vSphere 6.5:

Суть механизма безопасной загрузки в vSphere 6.5 заключается в том, что загрузка подписанного кода гипервизора ESXi контролируется со стороны UEFI firmware, а также не разрешается исполнение неподписанных пакетов.

UEFI (Unified Extensible Firmware Interface) - это замена традиционному BIOS в серверах и настольных ПК. Механизм Secure Boot - это один из "протоколов" UEFI, который предоставляет возможности контроля загрузки подписанного кода за счет хранения цифровых сертификатов, которые хранятся в микрокоде (firmware) компьютера (signature database). Это все позволяет убедиться в том, что некий root kit не будет присутствовать в составе загружаемых компонентов и не предоставит доступ злоумышленнику на самом низком уровне.

Большинство UEFI содержит набор сертификатов по умолчанию типа x509 Microsoft UEFI Public CA, а также позволяет устанавливать собственные сертификаты дополнительно. Надо отметить, что эти сертификаты поставляются производителем серверов и обновляются вместе с его микрокодом.

Для обеспечения безопасной загрузки используются следующие компоненты:

  • Загрузчик ESXi (boot loader) - он убеждается в том, что цифровая сигнатура кода не была изменена. Загрузчик подписан сертификатом Microsoft UEFI Public CA. Он также содержит VMware public key, с помощью которого проверяются компоненты VM Kernel, Secure Boot Verifier, а также пакеты VIB.
  • Ядро VM Kernel - это также подписанная часть кода. Первое, что делает VM Kernel, это запускает Secure Boot Verifier.
  • Secure Boot Verifier - он также хранит VMware public key и проверяет аутентичность всех VIB-пакетов, которые загружаются во время загрузки ESXi.
  • VIB-пакеты (vSphere Installation Bundles) - эти пакеты, помимо реализуемых ими сервисов, содержат файл XML descriptor и файл цифровой подписи (digital signature file). Во время загрузки ESXi в памяти создается "карта" содержимого каждого из VIB-пакетов, соответственно не требуется проверять каждый из его файлов, а достаточно проверить подпись пакета целиком (это быстрее работает).

Вот как выглядит процесс загрузки хоста ESXi с точки зрения Secure Boot:

  • Включение питания.
  • UEFI Firmware валидирует загрузчик ESXi Boot Loader на предмет соответствия сертификату Microsoft внутри микрокода UEFI.
  • ESXi Boot Loader валидирует компонент VM Kernel на предмет соответствия сертификату в Boot Loader.
  • VM Kernel запускает компонент Secure Boot Verifier.
  • Secure Boot Verifier валидирует каждый VIB-пакет на соответствие сертификату VMware, который находится в хранилище Secure Boot Verifier.
  • Запускаются необходимые сервисы управления (DCUI, hostd и т.п.).

При апгрейде VMware ESXi прошлых версий с помощью ESXCLI происходит обновление сигнатур VIB-пакетов, но Boot Loader остается прежним, поэтому когда вы включите Secure Boot - возникнет ошибка. Как следствие - нужно будет переустановить ESXi.

Если вы обновляете ESXi из ISO-образа, то для некоторых старых VIB-пакетов сигнатуры могут не обновиться (например, кастомные драйвера, которые вы устанавливали отдельно), что приведет к неудаче при безопасной загрузке. То есть для нормального обновления из ISO нужно, чтобы все VIB-пакеты в этом образе обновили все предыдущие VIB. Надо отметить, что VIB-пакеты уровня Community supported не поддерживаются для безопасной загрузки (так как они не подписаны).

В составе VMware vSphere 6.5 есть специальный скрипт, который проверяет возможность безопасного апгрейда прошлой версии платформы.

Сначала надо проверить, что серверы поддерживают UEFI secure boot. Далее надо убедиться, что все ваши VIB-пакеты имеют хотя бы уровень Partner Supported, и у вас нет Community Supported пакетов.

Если вы обновили хост на ESXi 6.5, то можно выполнить следующий скрипт для проверки возможности включения Secure Boot:

/usr/lib/vmware/secureboot/bin/secureBoot.py -c

Результатом будет строчка "Secure Boot can be enabled" или "Secure boot CANNOT be enabled".

Если вы включите Secure Boot в микрокоде сервера, но у вас есть неподписанные пакеты, то при загрузке сервера вы увидите розовый экран и сообщение о том, что нельзя проверить подписи VIB-пакетов:

Чтобы выйти из этой ситуации, надо выключить безопасную загрузку, удалить неподписанные VIB-пакеты и снова включить ее.

Еще одна фишка включенной функции Secure Boot - это то, что вы не сможете установить неподписанные VIB-пакеты с опцией force подобным образом:

"esxcli install software –d /drive/badvib.zip –force –<b>no</b>-sig-check"

Если говорить о модуле TPM, то он тут не участвует, и мало того - TPM 2.0 вообще не поддерживается со стороны VMware vSphere 6.5.

Ну и последнее. Если вы хотите использовать Secure Boot вместе с механизмом vSphere Auto Deploy, то вы должны добавить сертификат VMware в список UEFI firmware whitelist (DB). Это требуется потому, что только ESXi Boot Loader подписан сертификатом Microsoft, а часть кода PXE-загрузчика, которая грузится до Boot Loader, подписана сертификатом VMware. Более подробно об этом написано в KB 2148532.


Таги: VMware, vSphere, Security, ESXi, Blogs

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57 | 58 | 59 | 60 | 61    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge